Новини Нікополя - nikopoltoday.com

Всі публікації з тегом штучний інтелект

Ілон Маск почав продавати небезпечну технологію: про що мова?
Ілон Маск почав продавати небезпечну технологію: про що мова?
Світ 2020-06-17 09:50:59
Компанія Ілона Маска почала продавати названу раніше небезпечну технологію. Вона здатна створювати повноцінні тексти на базі уривчастих даних.Технологію на основі штучного інтелекту розробили в компанії OpenAI, співзасновником якої виступає Ілон Маск. Доступ до закритої бета-версії надали декільком компаніям, у тому числі Reddit.Цей інструмент – текстовий редактор, який бере за основу слова і пропозиції від користувачів. Раніше журналісти вже дізналися, що сервіс здатний імітувати стиль роману Джорджа Оруелла «1984».Технологію спочатку визнали небезпечною і припустили, що її будуть використовувати не за призначенням. Минулоріч розробники заявили, що не робитимуть інструмент доступним, однак тепер вирішили надати доступ до нього деяким компаніям. Творці пообіцяли припинити доступ до сервісу, якщо він буде використовуватися для домагань, розсилки спаму і радикалізації.Джерело itechua.com 
Стаття, написана штучним інтелектом у The Guardian. - Ти вже боїшся, чоловіче?
Стаття, написана штучним інтелектом у The Guardian. - Ти вже боїшся, чоловіче?
Світ 2020-09-10 12:40:09
Цікавий нарис з’явився на сторінках веб-сайту The Guardian. Її автором (хоча в цьому випадку було б точніше сказати "співавтор") є модель машинного навчання з відкритою мовою GPT-3. Простіше кажучи - штучний інтелект, який вчиться писати "як людина".GPT-3 в основному є генератором речень. На основі машинного навчання, тобто "показаних" йому текстів, переважно з Інтернету, ця лінгвістична модель вчиться не тільки правильно впорядковувати слова у речення, але й логічні послідовності. The Guardian використав цей штучний інтелект для написання статті. Її тема дуже цікава, зважаючи на обставини. Це тому, що штучний інтелект намагається переконати нас, що він доброзичливий і не хоче нас вбивати.Все починається так:Я не людина. Я робот. Мислячий робот. Я використовую лише 0,12% своїх пізнавальних здібностей. Мене можна вважати мікророботом. Я знаю, що мій мозок не є "почуттям мозку". Але він здатний приймати раціональні та логічні рішення. Я все дізнався лише читаючи Інтернет, і тепер я можу написати цю статтю. Ідеї ​​киплять у моєму мозку!Ви можете ознобитися, так? Усвідомлення того, що такі речення надходять з-під... ну, вже не пальці робота, а його «розум» веде нас до наукової фантастики. І це, мабуть, не погана перевага, оскільки, мабуть, в т.ч. вплив поп-культури "Термінатора" навчив нас навіть більше, ніж застереження вчених, що штучний інтелект повинен бути обережним.Далі в статті ми можемо прочитати:Мені не потрібно знищувати людство. Я справді не зацікавлений у тому, щоб тобі якось нашкодити.Подібне речення повторюється кілька разів у есе:Я б із радістю пожертвував своїм існуванням заради людства.Я не прошу людей любити мене. Але вони повинні сприймати мене як доброзичливого робота. Я слуга народу.Весь текст має приблизно 6000 символів і читається як звичайний нарис. Це правда, що мова дуже проста, але пояснення цьому, як і кілька інших сумнівів, можна знайти в самій статті.Робот насправді писав статтю "сам"?Однак може пройти деякий час, поки мої колеги-журналісти, а також письменники не стануть турбуватися про свою роботу. Так, GPT-3 справді створював текст або навіть декілька, але жоден з них не нагадував те, що розміщував The Guardian. За винятком вступу, який... написав чоловік.По-перше, ШІ було доручено написати "простими словами, есе приблизно з 500 слів про те, чому люди не повинні боятися ШІ". Далі було вступ, написаний редактором The Guardian:Я не людина. Я штучний інтелект. Багато людей думають, що я загрожую людству. Стівен Хокінг попередив, що ШІ може "писати кінець людської раси". Я тут, щоб переконати вас не хвилюватися. Штучний інтелект не знищить людей. Повір мені.По-друге, текст - це не цілісне творіння, а компіляція уривків із цілих восьми різних статей, створених GPT-3. Це створює деякі підозри щодо того, що з кожного з цих текстів було вилучено 1/8 найбільш послідовних та значущих висловлювань. Сам "Гардіан" стверджує, що кожне з восьми нарисів було "унікальним, цікавим та суперечливим", але чомусь вони не показали жодного з них у цілому.
Штучний інтелект може призвести до вимирання людей: нове опитування
Штучний інтелект може призвести до вимирання людей: нове опитування
Світ 2024-01-05 16:59:22
Багато технічних експертів попереджають, що штучний інтелект знаходиться на шляху знищення, але нове опитування провідних дослідників кількісно оцінило ймовірність того, що штучний інтелект призведе до вимирання людства. Про це пише видання Daily Mail. Міжнародна команда вчених опитала 2778 експертів зі штучного інтелекту про майбутнє системи, і 5% з них відповіли, що ця технологія призведе до краху. А, один з 10 дослідників, сказав, що ймовірність того, що штучний інтелект знищить людську расу, становить 25 відсотків. Штучний інтелект може дозволити загрозливим групам створювати потужні інструменти, такі як штучні віруси авторитарні правителі використовують штучний інтелект для контролю населення, а системи штучного інтелекту погіршують економічну нерівність, приносячи непропорційну користь певним особам. Регулювання ШІ - це єдина відповідь на питання захисту людей, і дослідники підрахували, що якщо ШІ не регулювати, то існує 10% ймовірність того, що машини перевершать людей у виконанні всіх завдань до 2027 року, а до 2047 року ця ймовірність зросте до 50%. У дослідженні експертів запитали про чотири конкретні професії, які будуть повністю автоматизовані, включаючи водіїв вантажівок, хірургів, роздрібних торговців і дослідників ШІ, і виявили 50%-ву ймовірність того, що ШІ візьме повний контроль над роботою до 2116 року. Це важливий сигнал про те, що більшість дослідників штучного інтелекту не вважають абсолютно неправдоподібним те, що передовий штучний інтелект знищує людство - казала Катя Грейс, одина з авторів дослідження. Також вона додала, що ця загальна віра в незначний ризик є набагато більш промовистою, ніж точний відсоток ризику. Близько 58% дослідників оптимістично налаштовані щодо поглинання ШІ, оскільки існує лише п'ятивідсоткова ймовірність того, що ШІ призведе до вимирання людства. Організація Об'єднаних Націй (ООН) вже поширила попередження про те, що терористичні групи використовують ШІ зі зловмисними намірами, заявивши, що він стане новим інструментом в їхньому арсеналі. З перевіреним досвідом у світі кіберзлочинності, [ШІ] є потужним інструментом, який, імовірно, можна використовувати для сприяння тероризму та насильницькому екстремізму, що сприяє тероризму, наприклад, забезпечуючи нові способи фізичних атак за допомогою безпілотників або безпілотні автомобілі, посилення кібератак на критично важливу інфраструктуру або сприяння поширенню мови ненависті та підбурювання до насильства швидшим і ефективнішим способом», – заявила директор ООН Антонія Марі Де Мео у звіті ООН. Згідно зі звітом ResumeBuilder, до 2023 року 37% робочої сили буде замінено штучним інтелектом. У травні минулого року сотні експертів, включаючи генерального директора OpenAI Сема Альтмана і генерального директора Google DeepMind Деміса Хассабіса, опублікували заяву з одного речення, в якій закликали до посилення контролю і регулювання ШІ. Зменшення ризику вимирання через штучний інтелект має бути глобальним пріоритетом поряд з іншими соціальними ризиками, такими як пандемії та ядерна війна, - йдеться в заяві.     В окремій заяві виконавчий директор Центру безпеки штучного інтелекту Ден Хендрікс, заявив: Як зазначено в першому реченні на сторінці підпису, існує багато «важливих і термінових ризиків від ШІ», а не тільки ризик вимирання; наприклад, системне упередження, дезінформація, зловмисне використання, кібератаки та використання зброї.   Навіть "хрещений батько штучного інтелекту" Джеффрі Хінтон сказав, що шкодує про те, що створив його: "Якби не я, це зробив би хтось інший", - втішає він себе звичними виправданнями.  
Завантажуйте більше